Warning: mkdir(): No space left on device in /var/www/tg-me/post.php on line 37
Warning: file_put_contents(aCache/aDaily/post/hackproglib/--): Failed to open stream: No such file or directory in /var/www/tg-me/post.php on line 50 Библиотека хакера | Hacking, Infosec, ИБ, информационная безопасность | Telegram Webview: hackproglib/4089 -
🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
The campaign, which security firm Check Point has named Rampant Kitten, comprises two main components, one for Windows and the other for Android. Rampant Kitten’s objective is to steal Telegram messages, passwords, and two-factor authentication codes sent by SMS and then also take screenshots and record sounds within earshot of an infected phone, the researchers said in a post published on Friday.
Библиотека хакера | Hacking Infosec ИБ информационная безопасность from nl